Text copied to clipboard!
Заглавие
Text copied to clipboard!Разработчик на Spark
Описание
Text copied to clipboard!
Търсим Разработчик на Spark, който да се присъедини към нашия екип от професионалисти в сферата на големите данни и анализа. Кандидатът трябва да има опит в разработката на мащабируеми и ефективни решения, използвайки Apache Spark, и да може да работи в динамична среда с големи обеми от данни. Ролята изисква силни технически умения, способност за решаване на проблеми и желание за непрекъснато учене и развитие.
Като Разработчик на Spark, ще бъдете отговорни за проектиране, разработване и оптимизиране на Spark приложения, които обработват и анализират големи обеми от структурирани и неструктурирани данни. Ще работите в тясно сътрудничество с екипи от анализатори, инженери по данни и DevOps специалисти, за да осигурите надеждни и ефективни решения за нашите клиенти и вътрешни нужди.
Идеалният кандидат има опит с програмни езици като Scala, Java или Python, както и добро разбиране на архитектурата на Apache Spark, включително Spark SQL, DataFrames, Datasets и Spark Streaming. Познанията по Hadoop, Hive, Kafka и други технологии за обработка на данни са предимство.
Ние предлагаме конкурентно възнаграждение, възможности за професионално развитие, работа по иновативни проекти и приятелска работна среда. Ако сте мотивиран, ориентиран към резултати и имате страст към работата с големи данни, ще се радваме да се свържете с нас.
Отговорности
Text copied to clipboard!- Разработка и поддръжка на Spark приложения за обработка на големи данни
- Оптимизация на производителността на Spark задачи
- Интеграция на Spark с други системи като Hadoop, Kafka и Hive
- Работа с екипи от анализатори и инженери по данни
- Проектиране на ETL процеси с помощта на Spark
- Участие в архитектурни решения и избор на технологии
- Документиране на разработените решения
- Тестване и отстраняване на грешки в Spark приложенията
- Следене на новостите в екосистемата на Apache Spark
- Осигуряване на сигурност и надеждност на данните
Изисквания
Text copied to clipboard!- Опит с Apache Spark (минимум 2 години)
- Добри познания по Scala, Java или Python
- Разбиране на концепциите за разпределена обработка на данни
- Опит с Hadoop, Hive, Kafka е предимство
- Умения за работа с Git и CI/CD инструменти
- Способност за работа в екип и комуникация
- Аналитично мислене и решаване на проблеми
- Желание за учене и развитие
- Опит с облачни платформи (AWS, Azure или GCP) е плюс
- Висше образование в областта на компютърните науки или сходна специалност
Потенциални въпроси за интервю
Text copied to clipboard!- Колко години опит имате с Apache Spark?
- С кои програмни езици сте работили в контекста на Spark?
- Имате ли опит с Spark Streaming или MLlib?
- Работили ли сте с Hadoop, Hive или Kafka?
- Как подхождате към оптимизация на Spark задачи?
- Имате ли опит с облачни платформи?
- Какви инструменти използвате за тестване и дебъгване на Spark приложения?
- Можете ли да опишете проект, в който сте използвали Spark?
- Как се справяте с работа в екип и комуникация с други отдели?
- Какви са вашите очаквания за професионално развитие?